NVIDIA reestructura DGX Cloud, reduce su apuesta como servicio externo y refuerza su uso interno para el desarrollo de IA
por Manuel Naranjo
Cuando una empresa domina un mercado, la tentación es subir un peldaño más. En NVIDIA, esa tentación se llamó DGX Cloud: llevar su plataforma de IA a un servicio para alquilar potencia sin montar un centro de datos.
Según las últimas informaciones, NVIDIA ha reorganizado su equipo de DGX Cloud e integra esa actividad en su estructura de ingeniería principal, bajo la supervisión de Dwight Diercks. El foco pasa de vender un servicio externo a usar DGX Cloud como plataforma interna para investigación y desarrollo, validación y pruebas de nuevas plataformas.
Qué fue DGX Cloud y por qué llamó tanto la atención
DGX Cloud se presentó a principios de 2023 con una promesa concreta: clústeres basados en GPUs NVIDIA con su pila de software lista, como servicio gestionado. Encajaba con una necesidad real: la IA avanza rápido y no todo el mundo quiere ser operador de infraestructura.
Además, DGX Cloud se alojaba inicialmente sobre infraestructura de proveedores como AWS, Google Cloud, Oracle Cloud y Microsoft Azure, lo que ayudaba a venderlo como una extensión de la nube que ya usas.
En la práctica, el modelo se topó con fricciones: precios altos frente a instancias estándar, integración irregular con herramientas ya implantadas y un soporte partido entre NVIDIA y socios.
El conflicto de canal era el elefante en la habitación
La pregunta incómoda era evidente: ¿contra quién compites si montas una nube propia? Los mayores compradores de NVIDIA son, precisamente, los grandes proveedores de nube. Mantener DGX Cloud como producto externo podía convertir a NVIDIA en rival de AWS, Azure o Google en el mismo terreno donde esos socios monetizan infraestructura.
La reestructuración llega tras señales previas de que NVIDIA dejaría de intentar competir con AWS y Azure. Es una forma de reducir fricciones con quienes más dinero ponen encima de la mesa y controlan el acceso a muchos clientes finales.

Operar una nube es otra liga, incluso con socios
Operar una nube competitiva requiere disciplina de operaciones, inversiones sostenidas y una cadena de soporte que no se improvisa. NVIDIA es excelente en silicio, sistemas y software, pero el oficio de gestionar infraestructuras globales y servicio veinticuatro siete es distinto.
También se debe apuntar a la economía del asunto. Aunque DGX Cloud se apoye en infraestructura de socios, NVIDIA asume parte del soporte y de la ingeniería de plataforma sin controlar del todo el margen. Mientras tanto, los hiperescaladores ajustan precios y lanzan servicios gestionados propios.
Y esos socios no se quedan quietos: AWS empuja Trainium e Inferentia, Google potencia TPUs y Microsoft impulsa Maia. Aun así, siguen dependiendo de NVIDIA para cargas punteras. En ese contexto, a NVIDIA le interesa más preservar esa dependencia que buscar margen vendiendo nube con su marca.
DGX Cloud como plataforma interna tiene sentido inmediato
Replegarse no significa desaparecer. DGX Cloud se reposiciona como plataforma interna, orientada a desarrollo de modelos, validación de software y pruebas antes y después del silicio de nuevas generaciones de GPU.
Hay un detalle que lo ilustra bien: NVIDIA ha alquilado grandes volúmenes de capacidad de GPU a proveedores, con un ejemplo de 18.000 GPUs por 1.500 millones de dólares durante cuatro años. Ese tipo de acuerdos encajan mejor cuando NVIDIA actúa como socio y cliente, no cuando además quiere vender un servicio rival.
Lo que cambia para empresas que buscan potencia de IA
Para quien compra IA como servicio, el centro de gravedad vuelve a estar en las nubes tradicionales y en su catálogo, con hardware de NVIDIA por debajo. DGX Cloud puede seguir existiendo, pero con un perfil más discreto y más ligado a ingeniería.
En el fondo, es una declaración de prioridades: NVIDIA parece preferir ser el proveedor que hace que la nube funcione mejor para IA, sin importar si el cliente está en AWS, Azure, Google, Oracle o en su propio centro de datos, antes que convertirse en operador de nube.
Eso no implica menos inversión en cosas de nube. De hecho, NVIDIA sigue ampliando su stack de software y herramientas, porque ahí es donde se juega buena parte de la diferencia entre tener GPUs y sacarles partido. Si DGX Cloud se convierte en banco de pruebas interno, NVIDIA puede validar librerías, optimizaciones y flujos de trabajo con cargas reales antes de que acaben en manos de socios y empresas.
Para las empresas, la lectura práctica es esta: el camino más probable para contratar potencia seguirá pasando por los hiperescaladores, pero con una NVIDIA aún más centrada en que su plataforma encaje sin fricciones en esos entornos. Menos promesa de nube propia, más ingeniería para que el rendimiento, la estabilidad y el despliegue sean consistentes. Y en una industria donde el coste por hora y la disponibilidad mandan, ese tipo de enfoque suele notarse más de lo que parece.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!



